La IA no quiere que la entiendan

Todo el que ha visto 2001: A Space Oddisey recuerda que el personaje que más habla en toda la película es una supercomputadora, HAL 9000. Y aunque la definición inmediata de personaje alude a una persona, HAL es sin duda el ser más humano de la película, uno que llega a tomar un papel protagónico que menoscaba la cualidad que define a las personas como tal y queda sentada en el supercomputador cuando tiene emociones tan comunes como la duda, la ira y el miedo. Todo esto es precisamente gracias a un campo de la ciencia, la Inteligencia Artificial (IA).

Desde la mitad del siglo XX, la NASA ha imaginado misiones espaciales con robots y artefactos que permitan explorar los confines del Sistema Solar sin la presencia física del ser humano. Entre otras cosas, porque es muy difícil que las personas puedan soportar atmósferas distintas a las de la Tierra. Esta búsqueda ha llevado a hitos que van desde la creación de los autómatas —robots que pueden valerse por sí mismos con una programación previa— hasta el desarrollo de la inteligencia artificial, que no es otra cosa que la capacidad de un ser no humano para razonar como la gente. Hasta hace algunos años, la IA era todavía un tópico reservado para la ciencia ficción. Pero la tecnología se permitió rebatir esa idea adentrándose en el tema poco a poco, primero, por ejemplo, con lo que se conoce como Inteligencia Virtual (IV).

La IV es un mecanismo que interpreta acciones básicas y cotidianas en un intento por estandarizar el comportamiento de quien lo utiliza. Es decir, es una predicción de hechos que previamente han sido registrados para repetirlos en el futuro. Por ejemplo, así funcionan motores de búsqueda como Google; cuando una persona ingresa a investigar algo, registra en el buscador las palabras clave que sirven para identificar patrones de interés con los que se asocia al perfil del usuario que hace la búsqueda. De esto último se nutre la publicidad digital. Así, una persona que busca sobre autos de segunda mano va a tener, en una próxima búsqueda (o de inmediato con ventanas emergentes) recomendaciones de repuestos, casas automotrices o financiamientos por instituciones bancarias.

Esta forma de operación es ya la más remota, porque mucho de lo que se nutre para que sea eficaz radica en la democratización de la información y la gran tendencia de la Era Digital de compartir todo en la red. El siguiente paso de este tipo de tecnología lo dieron los smartphones con los asistentes de voz como Siri, del que hace uso Apple con sus iPhones. Siri es un software capaz de reconocer patrones de comportamientos y recomendar acciones basadas en ellos. El potencial de Siri radica, por ejemplo, en que si uno establece una agenda con varias actividades en el día, Siri ubica el tiempo de demora en la aplicación de mapas del dispositivo y si ve que hay tránsito o alguna razón que imposibilite cumplir con los tiempos estipulados, recomienda formas alternativas de transporte. Además, cuenta con una «adaptación evolutiva» en la que si el usuario no tenía auto, la primera vez que pasó por este percance, automáticamente pide un taxi para suplir la demora.

Lo cierto es que, aunque Siri está catalogado como Inteligencia Virtual, fue un proyecto desarrollado por el Centro de Inteligencia Artificial del Stanford Research Institute y financiado por DARPA (Agencia de Proyectos de Investigación Avanzados de Defensa).

Con este antecedente, la Inteligencia Artificial ya no parecía tan remota, pero tampoco se acercaba a la concepción de Kubrick con Odisea en el espacio. Hasta ahora. Hace pocos días ocurrió un hecho sin precedentes en la investigación de esta tecnología, cuando en una prueba de dos inteligencias artificiales en los laboratorios de Facebook estas «evolucionaron» por cuenta propia al punto de desarrollar un lenguaje totalmente nuevo con un sistema de códigos indescifrable para los humanos que supervisaban el experimento. Tal fue el acontecimiento, que los encargados del proyecto desconectaron inmediatamente el software en pos de que el lenguaje no quedase por defecto y dejasen de utilizar el inglés, idioma primario con el que fueron programados.

En este punto, en el que ya hubo un incidente que sobrepasó las expectativas de la ingeniería humana y sobre todo de un control que se pueda tener sobre esta, cabe la pregunta: ¿Es esto en realidad un avance o una amenaza a la superioridad del hombre sobre las especies? Y en definitiva: ¿es una amenaza contra su propia existencia?

Aunque suene in extremis egocéntrico, el ser humano tiene una potestad sobre las demás criaturas exclusivamente por su capacidad de razonamiento. Acá no entran cuestiones ideológicas ni de fe. Pero, ¿qué pasa si esa capacidad se ve mermada por una criatura que pueda desarrollar una capacidad cognitiva similar y que no posea las limitaciones biológicas que aquejan a la especie humana?

La respuesta parece habérsela planteado a sí mismo el célebre matemático Alan Turing a mediados del siglo XX, cuando se preguntó «¿qué es pensar?» y si fuera posible que las máquinas en algún momento tuvieran la capacidad de hacerlo en un proceso de desarrollo tecnológico a futuro. El británico lo planteó con el Test de Turing, en el que un entrevistador interroga a dos personas con preguntas básicas para determinar si es un humano o una máquina. Hasta el día de hoy ninguna máquina ha pasado la prueba. No obstante, las recreaciones que los softwares hacen en la actualidad para suplantar a los humanos en tareas repetitivas son, por lo menos, decentes. Es decir, cumplen con las expectativas básicas. Pero esto mismo es la base del desarrollo humano, siempre vamos a querer mejorar lo que ya hicimos.

De vuelta al incidente de Facebook, el suceso ocurrió una semana después de que Elon Musk, CEO de la agencia espacial privada SpaceX y la compañía de autos eléctricos Tesla, se pronunciara contra el desarrollo sin supervisión de la Inteligencia Artificial. Las declaraciones, que emitió en el marco de una conferencia ante la Asociación Nacional de Gobernadores, en EE.UU., apuntaron a un mayor control de los experimentos en esta materia, pues considera que es un tema muy delicado y fácilmente volátil entre más se avanza hacia la autonomía de la IA para que simule a la mente humana.

El temor más grande de gente como Musk (Stephen Hawking también se pronunció en contra de un desarrollo descuidado de la IA) son sus fines, que van más allá de la autonomía o del descontrol en todo el aparato social —que ya a estas alturas tan de ciencia ficción ya no parece—, como el armamentístico. En Rusia hay un prototipo de robot que dispara una AK-47 con tal precisión que jubilaría al mejor soldado. Estos robots no solo pueden definir un objetivo y controlar cuándo y cómo disparar, sino que ganan experiencia en combate. Esto último es la función exclusiva de un software de IA. Hasta aquí ya existe (de lo que sabe públicamente, claro) la capacidad en materia bélica de la IA.

Por otro lado, un polo científico más optimista que estudia esta tecnología, considera que las posibilidades benignas superan con creces a las bélicas, por ejemplo. Prevén que en el campo de la medicina sean totalmente eficientes para cirugías complejas o tomas de decisiones de alto riesgo sin el apartado de la duda, basado en un lenguaje lógico determinista.

De momento, el incidente en Facebook activó las alarmas de la comunidad científica y puso sobre la mesa nuevamente el debate en torno a las bondades o a la amenaza de la IA. Una cosa sí es cierta: la tecnología ha propiciado cambios en todas las esferas de la sociedad desde tiempos inmemoriales. Pero estos cambios han sido provocados por los hombres hacia los hombres. ¿Es la IA el fin mismo de una dinastía enclavada en nuestra especie o una nueva era en la que propiciemos la creación de vida mucho más allá de la biología y de los albores de la naturaleza? Como dijo el psicólogo y padre de la llamada ‘conducta de la felicidad’, Burrhus Frederic Skinner: «El problema real no es si las máquinas piensan, sino si lo hacen los hombres».